机器学习---熵,信息增益,信息增益率

在信息论中被用来度量信息量,熵越大,所含的有用信息越多,其不确定性也就越大;熵越小,有用信息越少,确定性也就越大。
决策树中,用熵来表示样本集的不纯度,样本集中样本种类越小,确定性越高,熵值越小;样本种类越多,越不确定,熵值越大。

熵例子

设S是数量为n的样本集,其分类属性有n个不同的取值,用来定义m个不同的分类Ci(i=1,2,⋯,m),则其熵的公式是:
在这里插入图片描述
如果有一个大小为10的布尔值样本集Sb,其中有6个真值,4个假值,那么该布尔型样本分类的熵是:
在这里插入图片描述

信息增益

计算得到熵作为衡量样本集合不纯度的指标后,就可以计算信息增益——分支属性对于样本集分类好坏程度的度量。
分裂后样本集的纯度提高,样本集的熵降低,熵降低的值即为该分裂方法的信息增益。
设S为样本集,属性A具有v个可能取值,即通过将属性A设置为分支属性,能够将样本集S划分为v个子样本集{S1,S2,⋯,Sv}。对于样本集S,如果以A为分支属性的信息增益Gain(S,A),计算公式如下:
在这里插入图片描述

信息增益率

设S为样本集,属性A具有v个可能取值,即通过将属性A能够将样本集S划分为v个子样本集{S1,S2,⋯,Sv},Gain(S,A)为信息增益,则属性A的信息增益率Gain_ratio定义为:
在这里插入图片描述
当v比较大时,信息增益率会明显降低。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值